Световни новини без цензура!
Meta предупреждава, че регулаторните усилия на ЕС рискуват блокът да пропусне напредъка на AI
Снимка: ft.com
Financial Times | 2024-09-24 | 08:26:19

Meta предупреждава, че регулаторните усилия на ЕС рискуват блокът да пропусне напредъка на AI

Meta предизвести, че методът на Европейски Съюз за контролиране на изкуствения разсъдък основава „ риск “ континентът да бъде отсечен от достъп до най-модерни услуги, до момента в който блокът продължава напъните си да овладее силата на Big Tech.

Роб Шърман, заместник-служител по поверителността на групата за обществени медии и вицепрезидент по политиката, удостовери отчет, че е получил искане от поверителността на Европейски Съюз watchdog непринудено да спре образованието на своите бъдещи AI модели върху данни в района.

Той сподели пред Financial Times, че това е, с цел да даде време на локалните регулатори да „ схванат казуса с генеративния AI “. 

Докато притежателят на Фейсбук се придържа към настояването, Шърман сподели, че сходни ходове водят до „ бездна в технологиите, които са налични в Европа по отношение на “ останалия свят. Той добави, че Meta няма да доставя мултимодални модели в Европейски Съюз и с бъдещи и по-усъвършенствани версии на AI „ е евентуално наличността в Европа да бъде наранена “.

Шерман сподели: „ Ако юрисдикциите не могат контролират по метод, който ни разрешава да имаме изясненост по отношение на това, което се чака, тогава за нас ще бъде по-трудно да предложим най-модерните технологии на тези места . . . това е реален резултат, за който се тревожим. “

Коментарите идват в миг, когато огромни софтуерни групи и започващи компании се надпреварват да комерсиализират AI артикули, като в същото време са лимитирани от широкообхватните цифрови правила на Европейски Съюз, в това число новия Закон за изкуствения разсъдък, който се стреми да контролира развиването на най-мощните модели и услуги.

По-специално това последно искане на Европейски Съюз, сподели Шърман, се дължи на несигурността дали образованието на AI модели върху потребителски данни е възможно в границите на разпоредбите на Общия правилник за отбрана на данните (GDPR) на Европейски Съюз. Тези правила изискват фирмите, които събират или употребяват персонални данни, да получат единодушието на лицето и да разкрият повода за това.

Шерман сподели, че Meta няма да „ може да обслужва [европейските потребители] вярно “ без способността да тренирайте върху европейски данни, защото AI би бил по-малко ефикасен и не би могъл да отговори на „ културните концепции и контексти, от които се нуждаят “.

Meta към този момент отсрочи стартирането на своя помощник Meta AI и нова версия на своите интелигентни очила Ray-Ban Meta с вграден помощник, над регулаторните страхове и страховете за отбрана на данните в Европейски Съюз и Обединеното кралство. Асистентът към този момент е разполагаем в 22 страни, в това число Съединени американски щати, Австралия и Аржентина, и на нови езици като френски, испански и хинди.

Междувременно прибързаният опит на Big ReadEurope да дефинира разпоредбите за AI

Apple, съобщи, че няма да пусне няколко функционалности под своята марка Apple Intelligence, заради опасения, свързани със Закона за цифровите пазари на Европейски Съюз. 

Европейски Съюз съобщи, че не разяснява самостоятелните решения на фирмите, само че добави, че това е „ атрактивен пазар от 450 милиона евентуални консуматори и постоянно е бил отворен за бизнес за всяка компания, която желае да дава услуги в Европа вътрешен пазар “, при изискване че са спазили закона.

Въпреки прекъсването на образованието за бъдещи модели, Meta пусна във вторник обновена версия на своите AI модели — Llama 3.1 — която ще бъде налична в Европа и по света.

Това включва нов модел с параметри от 405 милиарда, който Meta назова „ най-големият и най-мощен отворен модел в промишлеността, създаван в миналото “. Често се смята, че по-големият брой параметри обезпечава превъзходна продуктивност.

Писмо в отговор на тази публикация:

 / 

Източник: ft.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!